共计 1543 个字符,预计需要花费 4 分钟才能阅读完成。
数据云公司雪花(Snowflake)在为生产力平台 Coda 推出集成产品一天后,又宣布推出公开预览版的智能 SQL(结构化查询语言)查询助手 Copilot。
Snowflake Copilot最初是在该公司去年的Snowday活动上宣布的,它利用Snowflake专有的文本到SQL模型和Mistral最近推出的Mistral Large large language model (LLM)来生成相关的SQL查询,帮助用户理解和探索他们的数据。上个月,Snowflake 向这家位于巴黎的初创公司投资了一笔未披露的资金,将其整个模型系列引入其用于 LLM 应用开发的 Cortex 服务。
此举标志着这家数据云巨头又迈出了值得注意的一步,即利用人工智能的力量简化企业处理数据资产的方式–自收购 Neeva AI 公司后上任的斯里达尔-拉马斯瓦米(Sridhar Ramaswamy)担任首席执行官以来,这一战略已悄然成形。
对Snowflake Copilot有什么期待?
Snowflake 位于数据革命的中心,允许企业分析数据资产,并为决策提供相关见解。这种方法造就了公司的今天,但洞察力的提取在很大程度上依赖于编写复杂的 SQL,这需要时间,而且并不适合每个企业用户。
新推出的 Copilot 正在为美国的 AWS 账户推出公开预览版,Snowflake 正在解决这一难题。根据该公司分享的多个演示,该助手将静静地坐在 SQL 工作表中,为用户提供一个对话界面,以自然语言生成 SQL 查询。用户只需通过 “询问 Copilot “按钮调出 Copilot,并用英语描述所需内容。不久之后,机器人就会理解问题,对其进行处理,并生成可立即使用的 SQL 代码来运行,从而实现所需的结果。
Snowflake表示,客户可以使用Copilot的生成功能完成各种任务,包括从多个表中提取数据进行分析以及修正现有查询。如果用户不知道从哪里开始,还可以与助手进行来回对话,以了解数据集的结构以及应该提出哪些问题来获得洞察力。Copilot 了解数据的上下文,并在每次生成查询的同时提供详细的回复,涵盖导致答案的所有方面,包括连接的表格。
为了打造这种体验,Snowflake 利用其自己的 LLM 应用程序开发服务 Cortex,并使用大量 SQL 查询数据和元数据为其专有的文本到 SQL 模型和 Mistral Large 提供动力。
“每天在我们的平台上处理超过 40 亿次查询,这让我们对最复杂的数据挑战有了无与伦比的洞察力。这些海量数据推动了 Copilot 的发展,超越了一般的大型语言模型。我们不仅对数据分析师面临的挑战有独特的洞察力,我们还拥有丰富的元数据,这些元数据可用于雪花公司的专用文本到 SQL 模型,Copilot 可利用该模型与 Mistral 的技术相结合,”雪花公司 AI 高级产品经理 Pieter Verhoeven 和首席 AI 工程师 Yusuf Ozuysal 在一篇联合博文中写道。
扩展工作正在进行时
通过 Copilot 的公开预览版,Snowflake 希望收集用户反馈以完善解决方案,并为其全面上市做好准备–目前尚不清楚上市时间表。该助手目前仍局限于 SQL 工作表,但该公司已暗示了下一步的发展,即它将扩展到产品的其他部分,成为用户的 “无处不在的伴侣”。
虽然这些领域还有待观察,但结果不难预料:从 Snowflake 轻松获取洞察力,从而更快地做出决策。这可能会改变公司的游戏规则,但值得注意的是,Snowflake 并不是唯一一家尝试自然语言查询的公司。自从 LLM 出现以来,许多数据公司都在探索利用生成式人工智能简化产品体验。在使用 LLMs 进行查询方面,Dremio 和 Kinetica 也推出了类似的功能。
由 Mistral Large 驱动的人工智能助手 Snowflake Copilot 推出公开预览版